これはインタラクティブなノートブックです。ローカルで実行するか、以下のリンクを使用できます:
音声データでWeaveを使用する方法:OpenAIの例
このデモでは、OpenAIのチャット完了APIとGPT 4o Audio Previewを使用して、テキストプロンプトに対する音声応答を生成し、Weaveでこれらを追跡します。

セットアップ
OpenAI(openai
)とWeave(weave
)の依存関係、およびAPIキー管理の依存関係set-env
をインストールすることから始めます。
google.colab.userdata
の代替です。参照:ここで使用方法の説明を確認できます。
音声ストリーミングと保存の例
ここでは、音声モダリティを有効にしたOpenAIの完了エンドポイントへの呼び出しをセットアップします。まず、OpenAIクライアントを作成し、Weaveプロジェクトを開始します。prompt_endpont_and_log_trace
を定義します。この関数には主に3つのステップがあります:
-
テキストと音声の入出力をサポートする
GPT 4o Audio Preview
モデルを使用して完了オブジェクトを作成します。- モデルにさまざまなアクセントでゆっくりと13まで数えるよう指示します。
- 完了を「ストリーム」に設定します。
- ストリーミングデータがチャンクごとに書き込まれる新しい出力ファイルを開きます。
- Weaveがトレースに音声データを記録できるように、音声ファイルへのオープンファイルハンドラを返します。
テスト
以下のセルを実行します。システムとユーザープロンプトは出力音声とともにWeaveトレースに保存されます。 セルを実行した後、「🍩」絵文字の横にあるリンクをクリックしてトレースを表示します。高度な使用法:WeaveによるリアルタイムオーディオAPI
